Die Zukunft der Neurotechnologie hängt von KI ab

Die Entschlüsselung des Gehirns ist das Ziel vieler Forschender – Tokenisierung könnte dabei der Schlüssel sein. Credit: Anna Schvets

Blake Richards ist außerordentlicher Professor an der McGill University und Mitglied von Mila – Quebec Artificial Intelligence Institute. In diesem Interview erklärt er, wie Deep Learning und Tokenisierung das Potenzial komplexer neuronaler Daten freisetzen – und damit bahnbrechende Anwendungen für Gehirn-Computer-Schnittstellen und die medizinische Diagnostik ermöglichen.

Wir alle möchten verstehen, wie unser Gehirn funktioniert, doch es scheint sich dieser Einsicht zu entziehen. Neuronale Daten stellen uns dabei vor enorme Herausforderungen: Sie sind spärlich, äußerst heterogen, oft unvollständig und umfassen unterschiedliche Modalitäten, Spezies und Gehirnregionen. Herkömmliche statistische Analysemethoden stoßen hier an ihre Grenzen. Deep Learning könnte eine vielversprechende Lösung bieten – doch dafür sind umfangreiche und homogene Datensätze erforderlich, und genau das sind neuronale Daten nicht. Welche Strategien oder Innovationen haben sich als besonders effektiv erwiesen, um diese Kluft zu überbrücken?

Es ist wichtig zu betonen, dass Deep Learning nicht unbedingt hochgradig homogene Daten erfordert, insbesondere durch den Einsatz von Foundation-Models. Diese Modelle werden vorab auf riesigen Datensätzen trainiert, die häufig aus unterschiedlichen Quellen stammen und vielfältige Merkmale aufweisen. Dadurch können sie eigenständig Muster erkennen und verallgemeinern.

Ein anderes Beispiel sind große Sprachmodelle wie ChatGPT. Die werden aus dem gesamten Textkorpora aus dem Internet trainiert werden. Diese Daten sind dabei so heterogen wie die Inhalte im Netz selbst. 

Aber hier kommt der große Unterschied: Trotz dieser Vielfalt bleibt jedoch die zugrunde liegende Datenstruktur konsistent.

Das liegt daran, dass verschiedene Websites zwar unterschiedliche Themen abdecken, aber alle dasselbe Vokabular einer bestimmten Sprache verwenden. Ähnlich verhält es sich bei der Verwendung von Bildern zum Trainieren eines Modells: Obwohl die Bildinhalte stark variieren können, befinden sich alle im selben Raum – dem Raum der möglichen RGB-Pixelwerte.

Die besondere Herausforderung für Deep Learning in der Neurowissenschaft besteht jedoch darin, dass die Daten aus verschiedenen Gehirnen stammen, die jeweils unterschiedliche Neuronenensembles besitzen. Zudem werden Aufnahmegeräte eingesetzt, die unterschiedliche Gruppen von Neuronen erfassen und dabei verschiedene Signalzusammensetzungen detektieren. Elektrophysiologische Messungen erzeugen zum Beispiel andere Signalformen als die funktionelle Magnetresonanztomographie (fMRT).

Das Problem liegt weniger in der inhaltlichen Heterogenität der neuronalen Daten – damit können Deep-Learning-Modelle umgehen – als vielmehr in der unterschiedlichen Darstellung der Daten. Es ist, als würde man ein Modell mit Internetdaten trainieren, bei denen jedoch jede Website ein eigenes, einzigartiges Vokabular verwendet. Diese Ausdrucksvielfalt stellt bei neuronalen Daten eine große Herausforderung dar. Wie gehen Forschende damit um?

Diese Frage bleibt weitgehend offen. Meine Gruppe entwickelt zusammen mit der Gruppe von Eva Dyer (Georgia Tech - Anmerkung der Redaktion) Techniken zur Tokenisierung, um dieser Herausforderung zu begegnen.

 

Unser Gesprächspartner Blake Richards

Blake Richards

Blake Richards ist außerordentlicher Professor an der McGill University sowie Mitglied von Mila – Quebec Artificial Intelligence Institute.

Richards' Forschung liegt an der Schnittstelle von Neurowissenschaften und KI. Für seine Arbeit wurde er bereits mehrfach ausgezeichnet, darunter mit dem NSERC Arthur B. McDonald Fellowship in 2022. Er war von 2011 bis 2013 Banting Postdoctoral Fellow am SickKids Hospital.

Er promovierte 2010 in Neurowissenschaften an der Universität Oxford.

Wie funktioniert das?

Kurz gesagt geht es bei der Tokenisierung darum, Daten wie Wörter oder Pixelwerte in Vektoren umzuwandeln, die von neuronalen Netzen, insbesondere von Transformatormodellen, verarbeitet werden können. Derzeit werden beim Deep Learning dafür relativ einfache Methoden verwendet. Beispielsweise gruppieren Sprachmodelle Text häufig durch grundlegendes Musterabgleichen, basierend darauf, wie häufig Buchstaben gemeinsam auftreten. Dadurch entstehen Textblöcke, die einzelne Wörter, Wortpaare oder Teilwortkomponenten sein können.

Bei Bildern ist die Tokenisierung noch einfacher: Pixelwerte werden durch grundlegende mathematische Funktionen geleitet, um Vektoren zu erstellen, ohne dass eine ausgeklügelte Zuordnung erforderlich ist.

In den Neurowissenschaften besteht die Herausforderung darin, komplexe neuronale Daten wie fMRT-Signale, neuronale Spikes, Kalziumspuren oder EEG-Wellenformen so zu tokenisieren, dass sie in einheitliche Vektoren im selben Raum überführt werden können. Diese Vereinheitlichung ist entscheidend, um Modelle zu trainieren, die mehrere Modalitäten wie Elektrophysiologie und fMRT gleichzeitig verarbeiten können. Da die Eigenschaften dieser Datenarten stark variieren, erfordern sie jedoch unterschiedliche Tokenisierungstechniken.

Wir haben bereits effektive Verfahren zur Tokenisierung von Spiking- und Kalziumdaten entwickelt und arbeiten derzeit an neuen Ansätzen für kontinuierliche Wellenformsignale wie EEG.

Worin bestehen die Schwierigkeiten?

Die Herausforderung besteht darin, Token für verschiedene Modalitäten so zu gestalten, dass sie genügend aussagekräftige Informationen enthalten, damit das neuronale Netzwerk gemeinsame Muster zwischen diesen Modalitäten erkennen kann. Zum Beispiel verwenden wir unterschiedliche Tokenisierungsverfahren für Spike- und Calciumdaten. Es ist jedoch nicht selbstverständlich, dass das Netzwerk allein durch die Eingabe beider Token-Arten lernt, wie Spike- und Calcium-Token miteinander in Beziehung stehen.

Um sicherzustellen, dass die Token aus den verschiedenen Modalitäten eine gemeinsame zugrunde liegende Bedeutung widerspiegeln, müssen wir noch gezielt daran arbeiten, ihre semantische Kohärenz zu verbessern und die Korrespondenzen zwischen ihnen zu optimieren.

Tatsächlich würde ich sogar so weit gehen zu sagen, dass es kaum praktische Anwendungen neuronaler Daten geben wird, bis wir solche Modelle entwickelt haben.

Wie lassen sich diese groß angelegten neuronalen Dekodierungsmodelle in praktische Anwendungen umsetzen, etwa in Gehirn-Computer-Schnittstellen oder klinische Diagnostik?

Ich denke, diese Modelle haben zahlreiche praktische Anwendungen. Tatsächlich würde ich sogar so weit gehen zu sagen, dass es kaum praktische Anwendungen neuronaler Daten geben wird, bis wir solche Modelle entwickelt haben. Um auf das zurückzukommen, was zu Beginn gesagt wurde: Das Problem ist die enorme Komplexität neuronaler Aktivität. Daher haben traditionelle statistische Methoden in den letzten zwei Jahrzehnten nicht dazu beigetragen, die potenziellen Anwendungen zu erschließen – viele haben es versucht und sind gescheitert. Und doch wissen wir prinzipiell, dass es möglich sein sollte. Letztlich liegt es wohl daran, dass unsere herkömmlichen Modelle nicht leistungsfähig genug waren, um diese komplexen statistischen Muster zu erkennen.

Deshalb wird der großflächige Einsatz von Deep-Learning-Systemen fast eine Voraussetzung für die meisten nachgelagerten Anwendungen in der Neurotechnologie sein, die wir uns bei der Nutzung neuronaler Aktivität vorstellen können. Dazu gehört beispielsweise die Diagnose neurologischer oder psychiatrischer Erkrankungen, die Vorhersage, ob jemand in Zukunft eine bestimmte Krankheit entwickeln könnte, oder die Entscheidung, ob eine bestimmte Behandlung für eine Person geeignet ist.

Ein konkretes Beispiel ist die Behandlung von Depressionen: Nicht alle Patienten sprechen auf SSRIs (Selektive Serotonin-Wiederaufnahme-Inhibitoren: Anmerkung der Redaktion) oder andere Antidepressiva an. Wenn wir anhand neuronaler Aktivität vorhersagen könnten, ob eine Person auf diese Medikamente ansprechen wird, wäre das ein echter Durchbruch.

Auch bessere geschlossene Regelkreise zur Steuerung neuronaler Aktivität hängen von präziser Erfassung und Vorhersage ab. Ein Beispiel ist die tiefe Hirnstimulation zur Behandlung von Parkinson oder Depressionen. Derzeit setzen Ärzte Elektroden in Gehirnregionen ein, die mit der jeweiligen Erkrankung in Verbindung stehen, und testen verschiedene Stimulationstechniken – manchmal mit Erfolg, manchmal nicht. Man müsste sich vorstellen, wir könnten stattdessen die neuronale Aktivität einer Person aufzeichnen und genau bestimmen, welche Region stimuliert werden muss und mit welchem Muster. Darüber hinaus könnten wir die Wirkung der Stimulation in Echtzeit überwachen und anpassen, während sich der Zustand des Patienten verbessert.

Diese Modelle könnten außerdem leistungsfähige Gehirn-Computer-Schnittstellen ermöglichen, mit denen Menschen direkt über ihre Gedanken Computer oder Robotik steuern können. Das wäre besonders für klinische Anwendungen revolutionär – etwa für querschnittsgelähmte Personen, die damit Prothesen bewegen oder über einen Bildschirm kommunizieren könnten.

All diese Anwendungen beruhen darauf, die relevanten neuronalen Muster zu entschlüsseln, die bestimmten Handlungen, Zuständen oder Therapieerfolgen zugrunde liegen.

Jetzt anmelden zur Lecture von Blake Richards zu diesem Thema

Large-Scale Brain Decoding - Taking Advantage of Physiological Diversity

Sie möchten mehr über das Thema erfahren? Dann seien Sie dabei, wenn Blake Richards am 10.03.2025 um 14:00 Uhr in ihrer Lecture die Ergebnisse seiner Forschung vorstellt.

Welche Fortschritte erwarten Sie in den nächsten Jahren in diesem Bereich?

Eine der größten technologischen Herausforderungen besteht derzeit darin, optimale Methoden zur Tokenisierung von Daten und deren Verarbeitung in neuronalen Netzen zu finden. Eine weitere zentrale Aufgabe ist die Entwicklung effektiver selbstüberwachter Lernverfahren.

Klassische Deep-Learning-Ansätze beruhen meist auf gekennzeichneten Daten – etwa der Zuordnung von Bildern zu Kategorien wie „Hund“ oder „Flugzeug“. Das System lernt dadurch, Muster zu erkennen, die bestimmten Klassen entsprechen. Moderne Methoden hingegen setzen zunehmend auf selbstüberwachtes Lernen, insbesondere bei großen vortrainierten generativen Modellen. Hierbei werden keine vordefinierten Labels benötigt; stattdessen lernt das Netzwerk direkt aus den Daten, indem es beispielsweise Vorhersagen trifft oder fehlende Informationen ergänzt.

In Sprachmodellen könnte dies bedeuten, dass das System das nächste Wort in einem Satz prognostiziert. In Bildmodellen wird oft eine Maskierungsstrategie genutzt, bei der Teile eines Bildes ausgeblendet werden und das Netzwerk diese basierend auf den sichtbaren Bereichen rekonstruiert.

Während solche selbstüberwachten Techniken für Sprache und Bilder bereits gut etabliert sind, fehlen uns noch vergleichbar leistungsfähige Ansätze für neuronale Daten. Zwar gibt es erste Fortschritte, und wir arbeiten aktiv daran, aber die bestehenden Methoden sind noch nicht auf dem Niveau, das wir uns wünschen.

Das Interview wurde von Laila Oudray geführt.

Alternativ-Text

Newsletter bestellen